17 research outputs found

    Reasoning over Description Logic-based Contexts with Transformers

    Full text link
    One way that the current state of the art measures the reasoning ability of transformer-based models is by evaluating accuracy in downstream tasks like logical question answering or proof generation over synthetic contexts expressed in natural language. However, most of the contexts used are in practice very simple; in most cases, they are generated from short first-order logic sentences with only a few logical operators and quantifiers. In this work, we seek to answer the question how well a transformer-based model will perform reasoning over expressive contexts. For this purpose, we construct a synthetic natural language question-answering dataset, generated by description logic knowledge bases. For the generation of the knowledge bases, we use the expressive language ALCQ\mathcal{ALCQ}. The resulting dataset contains 384K examples, and increases in two dimensions: i) reasoning depth, and ii) length of sentences. We show that the performance of our DeBERTa-based model, DELTAM_M, is marginally affected when the reasoning depth is increased and it is not affected at all when the length of the sentences is increasing. We also evaluate the generalization ability of the model on reasoning depths unseen at training, both increasing and decreasing, revealing interesting insights into the model's adaptive generalization abilities

    The Role of Semantic Technologies in Diagnostic and Decision Support for Service Systems

    Get PDF
    In this research, we utilize semantic technology for robust early diagnosis and decision support. We present a light-weight platform that provides the end-user with direct access to the data through an ontology, and enables detection of any forthcoming faults by considering the data only from the reliable sensors. Concurrently, it indicates the actual sources of the detected faults, enabling mitigation action to be taken. Our work is focused on systems that require only real-time data and a restricted part of the historic data, such as fuel cell stack systems. First, we present an upper-level ontology that captures the semantics of such monitored systems and then we present the structure of the platform. Next, we specialize on the fuel cell paradigm and we provide a detailed description of our platform’s functionality that can aid future servicing problem reporting applications

    The SciQA Scientific Question Answering Benchmark for Scholarly Knowledge

    Get PDF
    Knowledge graphs have gained increasing popularity in the last decade in science and technology. However, knowledge graphs are currently relatively simple to moderate semantic structures that are mainly a collection of factual statements. Question answering (QA) benchmarks and systems were so far mainly geared towards encyclopedic knowledge graphs such as DBpedia and Wikidata. We present SciQA a scientific QA benchmark for scholarly knowledge. The benchmark leverages the Open Research Knowledge Graph (ORKG) which includes almost 170,000 resources describing research contributions of almost 15,000 scholarly articles from 709 research fields. Following a bottom-up methodology, we first manually developed a set of 100 complex questions that can be answered using this knowledge graph. Furthermore, we devised eight question templates with which we automatically generated further 2465 questions, that can also be answered with the ORKG. The questions cover a range of research fields and question types and are translated into corresponding SPARQL queries over the ORKG. Based on two preliminary evaluations, we show that the resulting SciQA benchmark represents a challenging task for next-generation QA systems. This task is part of the open competitions at the 22nd International Semantic Web Conference 2023 as the Scholarly Question Answering over Linked Data (QALD) Challenge

    Rewriting and consistent conjunctive query answering under knowledge base evolution

    No full text
    The last years conjunctive query answering constitutes a key reasoning service for many applications which involve managing very large datasets. One of the most important reasoning techniques for query answering is query rewriting. Given a conjunctive query (CQ), a process of query rewriting produces a set of rules that captures all the information of the ontology is such a way that for every dataset, the set of answers returned from the ontology over the dataset is the same with the set of answers returned from the rewriting over the same dataset. The existing rewriting systems accept as input a conjunctive query and an ontology and compute a rewriting of the query with respect to this ontology. However, a drawback of these techniques is that every time the initial ontology is modified --that is, new axioms are added(ontology revision) or existing ones removed (ontology contraction), they compute a new rewriting from scratch without exploiting the similarities between the different versions of the ontology. This may introduce considerable efficiency problems, as many real world applications involve frequent and relatively small modifications on the used ontologies. In this thesis, we study the problem of computing a rewriting for a CQ over anontology that has been modified, by reusing the information obtained by the extraction of some previous rewriting. Initially, we study the problem when the ontology is extended by a set of axioms. Our approach is to focus only on the new inferences introduced by the new set of axioms. Next, we study the problem when the ontology is contracted by as set of axioms. Initially,we provide a general algorithm which initially removes automatically the information that is no longer derivable from the new ontology and the query and then it performs some necessary new inferences. With the aim of minimizing any reasoning tasks, we investigate how a new rewriting can be produced under the constraint of not applying any inferences. Also, we provide graph-based approaches for both algorithms that optimize their performance.Finally, we evaluate experimentally the suggested algorithms and we compare their efficiency to the highly efficient systems Requiem and Rapid. The demonstrated results are very encouraging. An issue that arises from the continuous ontology modifications, is that theknowledge base is subject to inconsistencies. Particularly, in cases where the knowledge base is being updated frequently from multiple sources it is very likely that the data will be inconsistent to the axioms of the ontology.There are two main approaches that solve this problem. The straightforward approach is to try and resolve the inconsistencies by ``cleaning'' the dataset from the conflicting elements. The second approach, called consistent query answering, is to try and compute some ``meaningful'' answers despite the conflicting information. In this thesis, we present a framework for efficient query answering, under the Intersection ABox Repair (IAR) and Intersection Closed ABox Repair (ICAR)semantics, that is based on highly efficient mature data saturation(triple-store) systems. This is particularly interesting as these systems have shown to be able to handle billions of (ontology) data. Moreover, their properties enable us to propose additional refinements and optimisations for the computation of the ICAR answers. At the same time, we suggest a new type of ICAR-like semantics which we show that can be computed in polynomial time for a very large number of highly expressive DLs, which makes them the first ever such semantics. Subsequently, we show that our framework can also be used to compute answers according to the IAR semantics for ontologies expressed in the DLs DL-LiteR and ELnr after some data preprocessing for which task we give an optimised algorithm.Finally, we have conducted an experimental evaluation of the algorithms obtaining encouraging results as both our approaches (IARand ICAR) are more efficient than existing IAR-answering systems.Τα τελευταία χρόνια το πεδίο απάντησης συζευκτικών ερωτημάτων σε μεγάλα σύνολα δεδομένων έχει καταστεί αντικείμενο συνεχούς έρευνας.Μια από τις πιο διαδεδομένες προσεγγίσεις στο πρόβλημα αυτό βασίζεται στην τεχνική της επαναγραφής ερωτημάτων. Το πρόβλημα, γενικά, ορίζεται ωςεξής: Δεδομένου ενός συζευκτικού ερωτήματος και μίας οντολογίας, μία διαδικασία επαναγραφής του ερωτήματος παράγει ένα σύνολο κανόνων στο οποίο ενσωματώνει τους περιορισμούς της οντολογίας, με τέτοιο τρόπο ώστε για οποιοδήποτε σύνολο δεδομένων, η αποτίμηση του τιθέμενου ερωτήματος πάνω στην οντολογία και το σύνολο δεδομένων να επιστρέφει τις ίδιες απαντήσεις με την αποτίμηση μόνο της επαναγραφής στο ίδιο σύνολο δεδομένων. Τα υπάρχοντα συστήματα επαναγραφής ερωτημάτων δέχονται στην είσοδο τους ένα συζευκτικό ερώτημα και μία οντολογία και υπολογίζουν μία επαναγραφή του ερωτήματος με βάση την οντολογία. Ωστόσο, τα συστήματα αυτά είναι έτσι σχεδιασμένα ώστε κάθε φορά που η οντολογία τροποποιείται -δηλαδή, επεκτείνεται ή μειώνεται κατά ένα σύνολο αξιωμάτων- να υπολογίζουν τη νέα επαναγραφή από την αρχή, χωρίς να αξιοποιούν την πληροφορία που έχει παραχθεί από τις προηγούμενες επαναγραφές. Οι οντολογίες όμως που χρησιμοποιούνται για να μοντελοποιήσουν την επιστημονική γνώση σε πραγματικά πεδία συνεχώς τροποποιούνται και συνεπώς τα υπάρχοντα συστήματα, που επαναϋπολογίζουν εξαρχής την επαναγραφή, θα καθυστερούν σημαντικά.Στο πλαίσιο αυτό, στην παρούσα διατριβή αρχικά μελετάμε το πρόβλημα υπολογισμού μίας επαναγραφής ενός ερωτήματος με βάση μία οντολογία που έχει εξελιχθεί,αξιοποιώντας την πληροφορία που έχει παραχθεί από τον υπολογισμό μίας επαναγραφής για μία προηγούμενη έκδοση της οντολογίας. Αρχικά, το πρόβλημα μελετάται για την περίπτωση που η οντολογία επεκτείνεται κατά ένα σύνολο αξιωμάτων. H προσέγγιση που ακολουθείται εστιάζει μόνο στους συμπερασμούς που πρέπει πιθανά να εφαρμοστούν εξαιτίας της προσθήκης των νέων αξιωμάτων. Στη συνέχεια, μελετάται η περίπτωση που η οντολογία συστέλλεται κατά ένα σύνολο αξιωμάτων. Στην αρχή, παρουσιάζουμε έναν γενικό αλγόριθμο ο οποίος, αφαιρεί με αυτόματο τρόπο τις προτάσεις που δεν παράγονται πλέον από τη νέα οντολογία και το ερώτημα και στη συνέχεια εφαρμόζει τους επιπλέον συμπερασμούς που είναι πιθανά απαραίτητοι.Επιπλέον, επιθυμώντας να ελαχιστοποιήσουμε τη συλλογιστική διαδικασία, μελετάμ εαν και υπό ποιες συνθήκες είναι εφικτός ο υπολογισμός μίας νέας επαναγραφής χωρίς την εφαρμογή νέων συμπερασμών. Επίσης, βελτιστοποιούμε τους προηγούμενους αλγορίθμους εφαρμόζοντας τεχνικές που στηρίζονται σε αναπαράσταση με τη χρήση γράφων. Για κάθε μία από τις περιπτώσεις προτείνουμε έναν νέο αλγόριθμο τον οποίο παρουσιάζουμε αναλυτικά και αποδεικνύουμε την ορθότητα του. Τέλος, αξιολογούμε πειραματικά τους προτεινόμενους αλγορίθμους και τους συγκρίνουμε με τα συστήματαRequiem και Rapid, που αποτελούν τεχνολογία αιχμής στην περιοχή της επαναγραφής με αλγόριθμους ανάλυσης. Τα αποτελέσματα της αξιολόγησης αυτής είναι ιδιαίτερα ενθαρρυντικά.Στη συνέχεια, στο πλαίσιο της διατριβής, ασχολούμαστε με ένα από τα κυριότερα προβλήματα που εμφανίζονται κατά την συνεχή τροποποίηση των οντολογιών, δηλαδή μία πιθανή ασυνέπεια που μπορεί να εμφανιστεί στη βάση γνώσης. Συγκεκριμένα,ιδιαίτερα σε περιπτώσεις που η βάση γνώσης ανανεώνεται συνεχώς από διαφορετικούς παρόχους είναι πιθανό τα δεδομένα να είναι ασυνεπή σε σχέση με τα αξιώματα της οντολογίας. Για την επίλυση του προβλήματος αυτού προτείνονται δύο βασικές προσεγγίσεις. Η πρώτη στοχεύει στην επιδιόρθωση του συνόλου δεδομένων ώστε η βάση γνώσης να γίνει συνεπής. Η δεύτερη δεν προτείνει την τροποποίηση της βάσης γνώσης, αλλά νέους αλγόριθμους για τον υπολογισμό απαντήσεων σε περιβάλλον ασυνέπειας.Στην παρούσα διατριβή προτείνουμε ένα πλαίσιο απάντησης ερωτημάτων που βασίζεται σε συστήματα κορεσμού δεδομένων υπό τις σημασιολογίες Τομή Διορθωμένων ABox(Intersection ABox Repair-IAR) και Τομή Διορθωμένων Κλεισμένων ABox(Intersection Closed ABox Repair- ICAR). Ένα σημαντικό πλεονέκτημα των συστημάτων αυτών είναι ότι μπορούν να διαχειριστούν με αποδοτικό τρόπο πολύ μεγάλο όγκο δεδομένων. Συγκεκριμένα, αρχικά, ακολουθώντας τη δεύτερη προσέγγιση, προτείνουμε έναν αλγόριθμο υπολογισμού των ICAR απαντήσεων.Ταυτόχρονα, αξιοποιώντας τις ιδιότητες των συστημάτων κορεσμού δεδομένων αυξάνουμε την αποδοτικότητα του προτεινόμενου αλγορίθμου. Επίσης, εισάγουμε μία νέα σημασιολογία, βασισμένη στη σημασιολογία ICAR, κατά την οποία η απάντηση ερωτημάτων ακόμα και για πιο εκφραστικές Περιγραφικές Λογικές υπολογίζεται σε πολυωνυμικό χρόνο. Προτείνουμε,επίσης, έναν αλγόριθμο υπολογισμού των απαντήσεων υπό την σημασιολογία αυτή αποδεικνύοντας την ορθότητά του.Επιπλέον, ακολουθώντας την πρώτη προσέγγιση, παρουσιάζουμε έναν αποδοτικό αλγόριθμο υπολογισμού των IAR απαντήσεων για DL-LiteR και ELnr οντολογίες.Τέλος, παρουσιάζουμε τα πειραματικά αποτελέσματα των συστημάτων που αφορούν στον υπολογισμό απαντήσεων σε ασυνεπείς βάσεις γνώσης για βατές Περιγραφικές Λογικές.Συγκρίνοντας τα χρονικά αποτελέσματά μας με τα χρονικά αποτελέσματα των αντίστοιχων υπαρχόντων συστημάτων διαπιστώνουμε ότι τα συστήματά μας είναι ιδιαίτερα αποδοτικά

    Player-Specific Conflict Handling Ontology

    No full text
    This paper presents an ontology that leads the player of a serious game - regarding conflict handling - to the educative experience from which they will benefit the most. It provides a clearly defined tree of axioms that maps the player’s visually manifested affective cues and emotional stimuli from the serious game to conflict handling styles and proposes interventions. The importance of this ontology lies in the fact that it promotes natural interaction (non-invasive methods) and at the same time makes the game as player-specific as it can be for its educational goal. It is an ontology that can be adapted to different educational theories and serve various educational purposes

    Cost-utility analysis of tocilizumab monotherapy in first line versus standard of care for the treatment of rheumatoid arthritis in Greece

    No full text
    The study aims to evaluate the cost-effectiveness of adding tocilizumab (TCZ) first line to a treatment sequence for patients with active rheumatoid arthritis (RA), who had an inadequate response to one or more traditional synthetic disease-modifying antirheumatic drugs (DMARDs) and are intolerant to methotrexate (MTX), or in whom continued treatment with MTX is considered inappropriate. An individual simulation model was applied to project lifetime costs and outcomes for 10,000 patients from a payer's perspective. The analysis compared the standard treatment pathway (STP) with a similar pathway, where treatment was initiated with TCZ. QALYs were used as primary efficacy outcomes. Efficacy data were obtained from the ADACTA trial and a network meta-analysis. Clinical practice standards were derived from an expert panel of Greek rheumatologists. Results indicate that a treatment sequence starting with TCZ yields 1.17 more QALYs (9.38 vs. 8.21) at an additional cost of a,not sign33,744 (a,not sign119,840 vs. a,not sign86,096) compared with the STP. The incremental cost-effectiveness ratio was a,not sign28,837/QALY gained. Probabilistic sensitivity analysis confirms robustness of these findings as consistently below a threshold of a,not sign45,000. The results of the analysis suggest that TCZ, when used as a first-line biologic monotherapy, can be a cost-effective treatment option for the management of active RA in patients in need of biologic monotherapy
    corecore